解释深层神经网络做出的决定是一个快速发展的研究主题。近年来,几种方法试图提供有关为结构化2D图像输入数据设计的神经网络做出决定的视觉解释。在本文中,我们提出了一种新颖的方法,以生成旨在对非结构化3D数据(即点云)进行分类的网络的粗略视觉解释。我们的方法使用流回到最终特征映射层的梯度并将这些值映射为输入点云中相应点的贡献。由于维数分歧和输入点之间缺乏空间一致性,我们的方法将梯度与点下降相结合以计算点云的不同部分的解释。我们方法的一般性在各种点云分类网络上进行了测试,包括“单一对象”网络PointNet,PointNet ++,DGCNN和“场景”网络投票。我们的方法生成对称解释图,该图突出显示了重要区域,并提供了对网络体系结构决策过程的见解。我们对使用定量,定量和人类研究的比较方法对解释方法的信任和解释性进行了详尽的评估。我们所有的代码均在Pytorch中实施,并将公开可用。
translated by 谷歌翻译
Causal structure learning from observational data remains a non-trivial task due to various factors such as finite sampling, unobserved confounding factors, and measurement errors. Constraint-based and score-based methods tend to suffer from high computational complexity due to the combinatorial nature of estimating the directed acyclic graph (DAG). Motivated by the `Cause-Effect Pair' NIPS 2013 Workshop on Causality Challenge, in this paper, we take a different approach and generate a probability distribution over all possible graphs informed by the cause-effect pair features proposed in response to the workshop challenge. The goal of the paper is to propose new methods based on this probabilistic information and compare their performance with traditional and state-of-the-art approaches. Our experiments, on both synthetic and real datasets, show that our proposed methods not only have statistically similar or better performances than some traditional approaches but also are computationally faster.
translated by 谷歌翻译
DEBS Grand Challenge(GC)是一项年度编程竞赛,向来自学术界和行业的从业人员开放。 GC 2022版的重点是Infront Financial Technology GmbH提供的大量tick数据的实时复杂事件处理。挑战的目的是有效计算特定趋势指标并检测这些指标中的模式,例如现实生活中的交易者使用的指标来决定在金融市场上购买或销售。用于基准测试的数据集交易数据包含来自阿姆斯特丹三个主要交易所(NL),巴黎(FR)和法兰克福AM(GER)的大约5500多个金融工具的2.89亿个tick事件。 2021年的整周。数据集可公开使用。除了正确性和绩效外,提交还必须明确专注于可重复性和实用性。因此,参与者必须满足特定的非功能要求,并被要求在开源平台上构建。本文介绍了所需的方案和数据集交易数据,定义了问题声明的查询,并解释了对评估平台挑战者的增强功能,该挑战者处理数据分布,动态订阅以及对提交的远程评估。
translated by 谷歌翻译
人工智能领域的成就用于计算和制造智能机器的进步,以促进人类和改善用户体验。情绪对人来说是基本的,影响了对应,学习和方向等思维和普通练习。语音情感识别是在这方面感兴趣的领域,在这项工作中,我们提出了一种新型的MEL频谱学习方法,其中我们的模型使用数据点从普遍的Crema-d数据集中从给定的WAV表格音符中学习情感。我们的模型使用对数MEL光谱图作为特征,其中MELS = 64。与解决情感语音识别问题的其他方法相比,训练时间较少。
translated by 谷歌翻译